“Hatedemics”, l'intelligenza artificiale per battere odio e fake news

“Hatedemics”, l'intelligenza artificiale per battere odio e fake news
di Palo Travisi
5 Minuti di Lettura
Lunedì 13 Maggio 2024, 07:30

Usare le potenzialità dell’intelligenza artificiale per contrastare i discorsi d’odio online e le fake news. È questo l’obiettivo del progetto europeo Hatedemics, coordinato dalla Fondazione Bruno Kessler di Trento, che nei prossimi due anni svilupperà una piattaforma di cui potranno avvalersi ong, giornalisti, fact-checker, autorità pubbliche e studenti per affrontare questi fenomeni diffusi sui social, contrastando quei crimini d’odio radicati nella disinformazione che vanno a colpire i gruppi più vulnerabili. Ne abbiamo parlato con Marco Guerini, coordinatore del progetto e responsabile del gruppo Language and Dialogue Technologies del Centro Augmented Intelligence di FBK.


Diffusione di odio online e fake news, che legame esiste tra loro?
«Come ricercatori della Fondazione Bruno Kessler ci focalizziamo sugli aspetti online, ma l'intenzionalità che viene ascritta ai social nel voler promuovere le fake news e l'odio online, da scienziato dico che non è vero.

Il problema è come sono stati disegnati gli algoritmi, che tendono a promuovere contenuti ad alto impatto: siccome fake news e odio online suscitano forti emozioni, questo ha creato un meccanismo perverso. In merito al legame, è la motivazione stessa del progetto. Fino ad oggi fake news e odio online nella pratica del contrasto sono stati trattati come fenomeni separati, mentre in realtà l’assunto di questo progetto è che esiste una vastissima zona grigia di fenomeni e contenuti diffusi online che stanno a metà strada o meglio rispondono ad entrambe».


Può fare un esempio?
«All’estero è circolata molto la notizia di uno studio che dimostrava che il diario di Anna Frank fosse stato scritto dopo la Seconda guerra mondiale. Oltre ad essere una fake news, portava con sé l’idea che anche l'Olocausto potesse essere stato inventato per giustificare l’odio contro gli ebrei».

Ad oggi, come si contrastano questi fenomeni?
«Gli strumenti sono l’individuazione del contenuto ed il sanzionamento, come la rimozione o il cosiddetto shadow banning, che nasconde parte o tutti i risultati di un certo autore dalle ricerche sui social. Per quanto riguarda l’individuazione dei potenziali contenuti ci sono due strategie: quella umana, della comunità online che diventa una sorta di controllore sociale, ma anche questo ha i suoi limiti, perché potrebbe essere usato per segnalare chi ci sta antipatico e diventare una sorta di guerra tra bande. E poi c’è l’uso dell'IA per classificare i contenuti».


Quindi l’analisi delle parole chiave?
«Ci sono reti neurali più avanzate che cercano di capire il contenuto oltre le parole chiave, perché sarebbe rischioso limitarsi solo a quelle. Questi algoritmi di IA sono addestrati su dati ed imparano a riconoscere i post di odio, ma spesso tendono a imparare le parole chiave e potrebbero creare il problema dei cosiddetti falsi positivi o falsi negativi, in cui una parola detta in un determinato contesto, non costituisce un’offesa da censurare. Con la ricerca che stiamo portando avanti, ci siamo chiesti: dove tracciamo la linea di quello che è accettabile e quello che va cancellato?»


E da qui parte il progetto Hatedemics?
«Quello che abbiamo tentato di fare già quattro anni fa con i primissimi sistemi di AI generativa, era usarla non per “censurare”, ma con una prospettiva totalmente diversa: aiutarci a rispondere a contenuti problematici, non come arbitri, iniziando a fornire strumenti utili alla società civile, che aiutassero nel compito quotidiano di rispondere all'odio online».


Qual è l’innovazione del progetto?
«Abbiamo lavorato sul contrasto all’odio online e fake news, producendo contro argomentazioni con strumenti di AI, partendo dal riconoscimento automatico tra migliaia di contenuti e scegliendo quelli a cui vale la pena rispondere. Ci siamo resi conto di due binari paralleli: quello dei fact checkers, bravissimi nel costruire contenuti in cui discutono la veracità di un argomento e degli operatori di ong che sono bravissimi ad ingaggiare online gli odiatori e sostenere discussioni in cui cercano di smontare i loro argomenti di odio. Però queste due esperienze non si sono mai veramente unite e con Hatedemics vogliamo provare a metterle insieme».


E che ruolo ricopre l’AI nel progetto?
«Addestreremo l’AI generativa, usando reti neurali open source, perché in questo modo tutto quello che faremo potrà essere ridistribuito alla comunità scientifica. Creeremo dialoghi simulati, li faremo leggere alla macchina che imparerà a sostenere dialoghi con persone che portano avanti odio o disinformazione, rispondendo proprio come farebbero fact checkers e operatori di ong insieme. Ma useremo metodi ancora più avanzati, il cosiddetto retrieval augmented generation, un sistema in cui la generazione delle risposte da parte della macchina viene sempre guidata da documenti di fact checking che avremo fornito noi».


Qual è il rischio più grande nella diffusione di questi fenomeni?
«Che nessuno crederà più a nulla di quello che vede online e l’obiettivo di Hatedemics è riportare fiducia nella tecnologia. Tutti i tool che svilupperemo saranno pensati come supporto ai cittadini e non in sostituzione dell’uomo: saranno strumenti di supporto al pensiero critico, che potranno essere usati da studenti ed enti di ricerca, in cui l’AI assume un ruolo fortemente educativo, che si fa anche portatore di conoscenza. Sono convinto che se i nostri dati, in futuro, venissero usati per costruire i language model dell’intelligenza artificiale del domani, allora avremo algoritmi già istruiti sulla capacità di rispondere in maniera adeguata a tutti questi fenomeni che oggi stanno creando problemi sui social e fuori. Solo così si potrà verificare quell’allineamento in cui gli output di un sistema linguistico condivideranno gli stessi valori di chi li sta utilizzando».

© RIPRODUZIONE RISERVATA